首页> 外文OA文献 >Joint Online Spoken Language Understanding and Language Modeling with Recurrent Neural Networks
【2h】

Joint Online Spoken Language Understanding and Language Modeling with Recurrent Neural Networks

机译:联合在线口语语言理解与语言建模   递归神经网络

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Speaker intent detection and semantic slot filling are two critical tasks inspoken language understanding (SLU) for dialogue systems. In this paper, wedescribe a recurrent neural network (RNN) model that jointly performs intentdetection, slot filling, and language modeling. The neural network model keepsupdating the intent estimation as word in the transcribed utterance arrives anduses it as contextual features in the joint model. Evaluation of the languagemodel and online SLU model is made on the ATIS benchmarking data set. Onlanguage modeling task, our joint model achieves 11.8% relative reduction onperplexity comparing to the independent training language model. On SLU tasks,our joint model outperforms the independent task training model by 22.3% onintent detection error rate, with slight degradation on slot filling F1 score.The joint model also shows advantageous performance in the realistic ASRsettings with noisy speech input.
机译:说话者意图检测和语义空缺填充是对话系统的两项重要任务,即直译语言理解(SLU)。在本文中,我们描述了一个递归神经网络(RNN)模型,该模型共同执行意图检测,时隙填充和语言建模。当转录语音中的单词到达时,神经网络模型会不断更新意图估计,并将其用作联合模型中的上下文特征。语言模型和在线SLU模型的评估是在ATIS基准数据集上进行的。在语言建模任务中,与独立训练语言模型相比,我们的联合模型在复杂性方面相对降低了11.8%。在SLU任务上,我们的联合模型在意图检测错误率上比独立任务训练模型好22.3%,并且在空位填充F1评分上略有下降。联合模型在具有嘈杂语音输入的真实ASR设置中也显示出优越的性能。

著录项

  • 作者

    Liu, Bing; Lane, Ian;

  • 作者单位
  • 年度 2016
  • 总页数
  • 原文格式 PDF
  • 正文语种
  • 中图分类

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号